摘要。最近的工作已经证明了将局部解释与主动学习相结合以理解和监督黑盒模型的前景。在这里我们表明,在特定条件下,这些算法可能会歪曲正在学习的模型的质量。原因是机器通过预测和解释查询实例的标签来说明其信念:如果机器没有意识到自己的错误,它最终可能会选择它表现良好的查询。这会使机器向用户呈现的“叙述”产生偏差。我们通过引入解释性引导学习来解决这种叙述偏见,这是一种新颖的交互式学习策略,其中:i)主管负责选择查询实例,而 ii)机器使用全局解释来说明其整体行为并引导主管选择具有挑战性、信息丰富的实例。该策略保留了解释性交互的关键优势,同时避免了叙述偏见,并且在样本复杂性方面与主动学习相比具有优势。使用基于聚类的原型进行的初步实证评估凸显了我们方法的前景。
![arXiv:2007.10018v1 [cs.AI] 2020 年 7 月 20 日PDF文件第1页](/bimg/a/a0709f7d47fbe16fe012c587aa7f79e01c331ac2.webp)
![arXiv:2007.10018v1 [cs.AI] 2020 年 7 月 20 日PDF文件第2页](/bimg/4/4076ba8f8ed3bcbd8e8e1a82737cdd8ba2c4d2fa.webp)
![arXiv:2007.10018v1 [cs.AI] 2020 年 7 月 20 日PDF文件第3页](/bimg/7/7cdac70fb7b399d6c9cbb8da856db5801aa18870.webp)
![arXiv:2007.10018v1 [cs.AI] 2020 年 7 月 20 日PDF文件第4页](/bimg/f/f3ff0fa9a3bf72045eab50e9aab026166cd4daa0.webp)
![arXiv:2007.10018v1 [cs.AI] 2020 年 7 月 20 日PDF文件第5页](/bimg/7/754c7d0a1768d7a582b757dc0ff24a0f3d429d14.webp)
